久留米工業大学(AI)

ミスを犯した時、普通は必ず責任を負う人がいます。しかしそのミスが人工知能によるものだったとしたら誰が責任を負うべきなのでしょうか。機械や人工知能は人間よりもミスが少ないと考えられていますが、それでも絶対にミスをしないわけではありません。 例えば自動運転の車が交通事故を起こした例を考えてみます。従来通りであれば交通事故は起こした人の責任。一方的な追突であれば、その責任のすべてを運転手が負うことになります。しかし乗っていた車が人工知能によって制御されていた場合であれば、事故を起こしてしまう人工知能を作ったメーカーにも責任があると考えられるはずです。仮に自動車メーカーと運転手の両方が責任を負うとして、それぞれどれくらいの割合で責任があるかも考えなければいけません。 ** 人工知能が人類の能力を超えてしまうと、今度は人工知能の判断が本当に正しいのか分からなくなってしまいます。 簡単なプログラムであればバグがあっても人間がそれを見つけ、正しく動作するよう修正できます。しかしあまりに成長した人工知能に対してはバグがバグと分かりません。例えば将来的に刑事事件のサポートをする人工知能が登場したとして、その人工知能が無実の人に容疑をかけてしまったとしたら?「よく分からないけど人工知能が犯人だと言っているから犯人なんだろう」と考えるのは危険です。 ** いくら高性能な人工知能があっても、真に実力を発揮するためには判断の元となる大量のデータが必要です。実際、Webサイトに掲載される広告やYouTubeのおすすめ動画などはすでに人工知能の力を借りています。ユーザーがこれまでに見たサイトや検索履歴といったデータがなくては適切な広告やおすすめ動画は表示できません。 一見便利な機能ではありますが、これはユーザーの個人情報が企業に抜き取られているとも考えられます。 企業がどの程度までユーザー個人の情報を集めていいのか、どのように集めた個人情報を管理すればいいのかという点については今まさに問題視されている課題の一つです。